((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
(Ajout de détails tirés du blog aux paragraphes 6 et 7)
Trois entreprises chinoises spécialisées dans l'intelligence artificielle ont utilisé Claude pour obtenir indûment des capacités afin d'améliorer leurs propres modèles, a déclaré Anthropic, le créateur du chatbot, dans un billet de blog lundi, tout en plaidant en faveur de contrôles à l'exportation sur les puces.
Cette annonce fait suite à un mémo publié par OpenAI au début du mois, dans lequel la startup avertissait les législateurs américains que l'entreprise chinoise d'IA DeepSeek ciblait le fabricant du ChatGPT et les principales entreprises d'IA du pays pour reproduire des modèles et les utiliser pour son propre entraînement.
DeepSeek, Moonshot et MiniMax ont créé plus de 16 millions d'interactions avec Claude en utilisant environ 24 000 faux comptes, en violation des conditions de service d'Anthropic et des restrictions d'accès régionales, a déclaré l'entreprise.
Ils ont utilisé une technique appelée "distillation", qui consiste à entraîner un modèle moins performant sur les résultats d'un modèle plus puissant, a indiqué Anthropic.
"Ces campagnes gagnent en intensité et en sophistication. La fenêtre d'action est étroite et la menace s'étend au-delà d'une seule entreprise ou d'une seule région."
Anthropic a averti que les modèles distillés illicitement n'étaient pas assortis des garanties nécessaires, ce qui crée des risques importants pour la sécurité nationale. Si ces modèles sont mis à disposition en libre accès, le risque se multiplie car les capacités se répandent librement hors du contrôle d'un seul gouvernement.
Anthropic, qui a levé 30 milliards de dollars lors de son dernier tour de table et est aujourd'hui évaluée à 380 milliards de dollars, a déclaré que les attaques par distillation justifient les contrôles à l'exportation: les restrictions d'accès aux puces réduisent à la fois les capacités d'entraînement directes des modèles et l'ampleur de la distillation abusive.
L'opération DeepSeek visait les capacités de raisonnement dans diverses tâches et la création d'alternatives permettant de contourner la censure à des requêtes sensibles, tandis que Moonshot visait le raisonnement agentique et l'utilisation d'outils, ainsi que le codage et l'analyse de données, a indiqué Anthropic.
MiniMax visait le codage agentique, l'utilisation d'outils et l'orchestration, et Anthropic a détecté la campagne alors qu'elle était encore active - avant que MiniMax ne publie le modèle qu'elle entraînait.
"Lorsque nous avons publié un nouveau modèle pendant la campagne active de MiniMax, ils ont pivoté en 24 heures, redirigeant près de la moitié de leur trafic pour capturer les capacités de notre dernier système", peut-on lire dans le billet de blog.
DeepSeek, Moonshot et MiniMax n'ont pas répondu immédiatement aux demandes de commentaires.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer